我们提出了一种使用一组我们称为神经基函数(NBF)的神经网络来求解部分微分方程(PDE)的方法。这个NBF框架是POD DeepOnet操作方法的一种新颖的变化,我们将一组神经网络回归到降低的阶正合成分解(POD)基础上。然后将这些网络与分支网络结合使用,该分支网络摄入规定的PDE的参数以计算降低的订单近似值。该方法适用于高速流条件的稳态EULER方程(Mach 10-30),在该方程式中,我们考虑了围绕圆柱体的2D流,从而形成了冲击条件。然后,我们将NBF预测用作高保真计算流体动力学(CFD)求解器(CFD ++)的初始条件,以显示更快的收敛性。还将介绍用于培训和实施该算法的经验教训。
translated by 谷歌翻译
从三个研究趋势中汇集了考虑(合作的诚实信号,社会语义网络和同性恋理论),我们假设字词使用相似性并具有类似的社交网络位置与员工数字交互的水平相关联。为了验证我们的假设,我们分析了近1600名员工的沟通,在大公司的Intranet通信论坛上互动。我们研究了他们的社会动态和“诚实信号”,在过去的研究中证明有利于员工的参与和合作。我们发现这个词使用相似性是交互的主要驱动因素,远远超过网络位置的其他语言特征或相似性。我们的结果表明根据目标受众仔细选择语言,并对公司经理和在线社区管理员进行实际影响。例如,了解如何更好的使用语言可以支持开发知识共享实践或内部通信活动。
translated by 谷歌翻译
HyperParameter优化是机器学习中的一种无处不在的挑战,训练型模型的性能在其有效选择时依赖于大致依赖。虽然为此目的存在丰富的工具,但目前在差分隐私(DP)的约束下,目前没有实际的超参数选择方法。我们研究鉴于差异私立机器学习的诚实的封锁,其中,在整体隐私预算中占了超代调优的过程。为此,我们)显示标准的组合工具在许多设置中优于更高级的技术,ii)经验和理论上展示了学习率和剪辑规范率HyperParameters,III之间的内在联系,表明DPADAM等自适应优化器享有显着的优势在诚实的HyperParameter调整过程中,IV)借鉴了DP设置中ADAM的新颖限制行为,以设计新的更高效的优化器。
translated by 谷歌翻译